- OPTIMISATION ET CONTRÔLE
- OPTIMISATION ET CONTRÔLEL’avènement du calcul différentiel, au XVIIe siècle, a permis de caractériser le minimum d’une fonction f par l’équation f (x ) = 0. On résolvait ainsi d’un coup une foule de problèmes pratiques, tout en soulevant de grandes questions théoriques: peut-on affirmer a priori l’existence d’un minimum? L’équation f (x ) = 0 donne-t-elle une caractérisation complète? D’où trois grands axes de développement que l’on retrouve aujourd’hui: les problèmes d’existence, les conditions nécessaires et les conditions suffisantes.Très vite, on a cherché à étendre ces procédés à des problèmes plus généraux, où l’on cherche non plus un point qui minimise une fonction, mais une courbe qui minimise une intégrale. Le XVIIIe et le XIXe siècle sont l’âge d’or du calcul des variations et les plus grands, d’Euler à Hilbert en passant par Jacobi (cf. L. EULER, D. HILBERT, C. JACOBI), y apportèrent tous leur contribution. La plupart des problèmes posés sont d’origine physique et mécanique et l’on s’intéresse moins à minimiser l’intégrale qu’à trouver une courbe qui satisfasse aux conditions nécessaires, les fameuses équations d’Euler-Lagrange.Tout change dans la seconde moitié du XXe siècle. L’homme ne va plus chercher ses problèmes dans la nature, mais dans l’environnement qu’il se crée. En ingénierie, en gestion, on construit des systèmes complexes, susceptibles d’une modélisation mathématique précise, et dont l’opération se traduit par un coût ou un gain chiffrable. L’avènement des calculateurs a rendu possible l’analyse de tels systèmes, tout en faisant craquer les cadres anciens du calcul des variations.Aujourd’hui, le concept d’optimisation est bien dégagé. Il s’agit de prendre la meilleure décision possible compte tenu de contraintes imposées du dehors. La modélisation mathématique suppose que l’on définisse a priori l’ensemble de toutes les décisions possibles, et qu’à chacune d’elles on attribue une note chiffrée. Cette note cote la performance au regard d’un certain critère; par exemple, le gain ou le coût financier que procure la décision. Optimiser, c’est choisir la décision qui a la meilleure note.Certains systèmes ont une structure temporelle: il faut prendre des décisions au jour le jour, alors que le résultat ne pourra être apprécié qu’au bout d’un temps assez long, une année par exemple. Il s’agit de problèmes de contrôle optimal. La difficulté principale est qu’une décision prise aujourd’hui engage l’avenir. Le rôle de la théorie est d’arbitrer entre le long terme et le court terme.Enfin, la notion d’optimisation se prolonge de diverses façons. Il peut y avoir plusieurs critères simultanés, c’est-à-dire plusieurs manières d’évaluer une même situation: cela conduit à la notion d’optimum de Pareto (cf. V. PARETO et ÉCONOMIE MATHÉMATIQUE). Ma situation peut dépendre non seulement de ma décision, mais de celles que prendront d’autres individus, partenaires ou adversaires: on rentre alors dans la théorie des jeux (cf. théorie des JEUX).1. La théorie abstraiteLe cadre généralOn se donne un ensemble X et une fonction f : XR 聆+ 秊參. L’introduction de la valeur + 秊 est ici essentielle, tant pour des raisons de commodité théorique que de nécessité pratique, comme on le verra. Un problème d’optimisation (face=F0021 戮) consiste à chercher le ou les points 異 qui réalisent le minimum de f sur X:Un tel point 異 sera appelé solution optimale , ou tout simplement solution du problème (face=F0021 戮). On appelle souvent X le domaine permis , et ses éléments les points admissibles . La fonction f est le coût , ou le critère. Le problème (face=F0021 戮) lui-même sera noté:Sans conditions supplémentaires, on ne peut affirmer l’existence d’une solution optimale. Par contre, on peut toujours affirmer l’existence de suites minimisantes , c’est-à-dire de suites (x n ) dans X telles que:Le second membre est soit + 秊 (si X ne rencontre pas l’ensemble des points où f est finie), soit fini, soit 漣 秊 (on dit alors que f n’est pas bornée inférieurement). On l’appelle souvent la valeur du problème (face=F0021 戮). Dire que 異 est solution optimale signifie précisément que:Les suites minimisantes sont un instrument très important dans la théorie comme dans la pratique. C’est en établissant la convergence de certaines suites minimisantes qu’on montre l’existence de solutions optimales, et c’est en construisant ces suites minimisantes par des algorithmes appropriés qu’on résout numériquement les problèmes d’optimisation.Un autre moyen d’étude important consiste à plonger le problème (face=F0021 戮) dans une famille de problèmes d’optimisation dépendant d’un paramètre y variant dans un espace Y. Typiquement, on introduira une fonction 﨏(y , x ) : X 憐 YR 聆+ 秊參, telle que 﨏( 北 , x ) = f (x ), et à chaque y 捻 Y on associera le problème d’optimisation:et sa valeur:Les problèmes (face=F0021 戮y ) apparaissent alors comme des perturbations du problème (face=F0021 戮), que l’on retrouve en faisant y = 北 . Le comportement de la fonction valeur V : YR 聆梁 秊參 au voisinage de y = 北 apporte alors des renseignements extrêmement précieux sur le problème (face=F0021 戮) lui-même.Nous passons maintenant à une étude plus détaillée des problèmes qui se posent. Ils sont de trois types:– existence de solutions optimales;– caractérisation de celles-ci;– approximation numérique.La résolution complète d’un problème d’optimisation passe par ces trois phases, dans l’ordre chronologique en général, bien qu’elles soient intimement liées.Existence de solutions optimalesLa seule méthode connue consiste à se ramener au théorème qui affirme que toute fonction semi-continue inférieurement sur un compact atteint son minimum. Rappelons que f : XR 聆+ 秊參 est dite semi-continue inférieurement (s.c.i.) si son épigraphe :est une partie fermée de X 憐 R. Ainsi, toute fonction continue est semi-continue inférieurement.En dimension finie, il n’y a pratiquement jamais de difficulté. La fonction f sera en général continue, et l’ensemble X compact pour peu qu’il soit fermé et borné. S’il n’est pas borné, on peut souvent se ramener à un compact en remplaçant X par Xm = X 惡x | f (x ) 諒 m, où m est choisi convenablement: il revient au même de minimiser f sur X ou sur Xm . Bref, la réponse, positive ou négative, peut être obtenue d’un coup d’œil.En dimension infinie, par contre, il en est tout autrement. La difficulté est que, pour rendre X compact, il faudra avoir recours à des topologies tellement faibles qu’elles ne laisseront plus à f aucune chance d’être continue. La convexité seule peut sauver la situation, et encore, dans certains espaces seulement.Théorème . Soit E un espace de Banach réflexif, muni de la topologie de la norme, X 說 E une partie convexe fermée et f : ER 聆+ 秊參 une fonction convexe semi-continue inférieurement. Si X est bornée, ou si f (x )+ 秊 quand 瑩x 瑩秊, alors (face=F0021 戮) possède une solution optimale 異 au moins.Les espaces Lp sont réflexifs pour 1 麗 p 麗 秊, les espaces L1, L size=1秊 et Cr ne le sont pas. Ce théorème paraît technique, mais l’expérience montre que les hypothèses mathématiques – réflexivité, convexité – traduisent des obstructions réelles. Nous aurons l’occasion d’y revenir (problème de Plateau, théorie de la relaxation).Conditions nécessaires d’optimalitéDans le cas le plus simple, où X = E est un espace de Banach et f : ER une fonction de classe C2, pour toute solution optimale 異 , on aura f ( 異 ) = 0 (condition du premier ordre) et f ( 異 ) semi-définie positive (condition du second ordre).Sauf cas spéciaux (condition de Legendre en calcul des variations, problèmes de sensitivité), les conditions du second ordre sont peu usitées. Par contre, les conditions du premier ordre sont très importantes: bien souvent, on ne s’intéresse au problème d’optimisation (face=F0021 戮) que parce qu’on cherche à résoudre f (x ) = 0. Signalons que, si f est bornée inférieurement, il existera toujours une suite minimisante x n telle que f (x n )0. L’existence de telles suites peut être exploitée pour démontrer l’existence d’une solution optimale: c’est la condition (C) de Palais-Smale.Les cas pratiques s’écartent de ce modèle simple par la présence de contraintes: X n’est qu’une partie de E et, si solution optimale il y a, elle sera généralement sur le bord de X. En dimension infinie, s’y rajouteront d’autres difficultés: il n’y a que très peu de fonctions différentiables sur les espaces Lp , et il n’est plus raisonnable de supposer que f le soit.Les conditions d’optimalité du premier ordre pour (face=F0021 戮) s’écriront, sauf pathologie:où 煉f (x ) est le «gradient généralisé» de f au point x et X(x ) le «cône normal extérieur» de X en x . La définition correcte de ces ensembles, leurs propriétés (convexité, régularité), les conditions de validité de l’équation ci-dessus constituent un domaine de recherche extrêmement actif.On renvoie à l’article PROGRAMMATION MATHÉMATIQUE pour l’explicitation des conditions d’optimalité dans le cas où le domaine permis X est défini par des contraintes et liaisons.Conditions suffisantes d’optimalitéNous rentrons maintenant dans le cas où X est une partie convexe fermée d’un espace vectoriel topologique E, et où f : ER 聆+ 秊參 est une fonction convexe semi-continue inférieurement. Les conditions nécessaires d’optimalité sont alors suffisantes, et on dispose d’une théorie complète.Le «calcul différentiel généralisé» dont nous parlions est ici bien établi: 煉f (x ) est le sous-différentiel de f (cf. CONVEXITÉ), NX(x ) est l’ensemble des x 捻 X tels que 麗 x , x 漣 y 礪 閭 0 pour tout y 捻 X, et on aura une condition nécessaire et suffisante d’optimalité:pourvu que l’intérieur de [dom f 漣 X] contienne l’origine.La particularité la plus intéressante du cas convexe est qu’il est possible d’associer à un problème d’optimisation donné (le primal ) un autre problème d’optimisation (le dual ) de telle sorte que la résolution de l’un trivialise l’autre. Il s’agit en quelque sorte d’un changement de variable, reposant sur le passage à la fonction convexe conjuguée [cf. CONVEXITÉ].Donnons un exemple. Soit X et Y deux espaces vectoriels topologiques, A : XY une application linéaire continue, f : XR 聆+ 秊參 et g : YR 聆+ 秊參 deux fonctions convexes semi-continues inférieurement. On suppose que l’intérieur de [dom g 漣 A dom f ] contienne l’origine. Alors, les problèmessont équivalents au sens suivant: si 北 résout le dual, 異 = 煉f (face=F0019 漣 Ay ) résout le primal, et si 異 résout le primal, 北 = 煉g (A 異 ) résout le dual. En outre, leurs valeurs sont opposées; ainsi, si sans avoir résolu le dual on calcule simplement les coûts primal et dual en deux points quelconques x 0 et y 0, on a un encadrement pour la valeur du primal:Une théorie complète de la dualité ferait appel au plongement de (face=F0021 戮) dans une famille de problèmes perturbés, comme nous l’avons mentionné. On renvoie à l’article PROGRAMMATION MATHÉMATIQUE pour d’autres interprétations de la dualité.2. Les problèmes concretsOn ne parlera ici ni des problèmes en dimension finie (cf. PROGRAMMATION MATHÉMATIQUE) ni des méthodes numériques (cf. analyse NUMÉRIQUE).Équations aux dérivées partiellesSoit 行 un ouvert borné de Rn . Si l’on cherche, dans un espace fonctionnel approprié, les fonctions x : 行RN prenant des valeurs données sur le bord de 行 et minimisant l’intégrale:et f (t , x , y ) est une fonction donnée, on obtient comme condition nécessaire du premier ordre les équations d’ Euler-Lagrange :Beaucoup d’équations issues de la physique sont de ce type (on dit alors qu’on a affaire à un problème variationnel ). Il est cependant fréquent que les solutions physiques ne minimisent pas l’intégrale ci-dessus, mais correspondent à d’autres types de points critiques.Il reste cependant des cas (problèmes elliptiques essentiellement) où l’on peut ramener la résolution d’une équation aux dérivées partielles à un problème d’optimisation. Le cas classique est le problème de Dirichlet (avec N = 1):qui se ramène à la minimisation de l’intégrale:où, pour chaque t fixé, F(t , 練) est une primitive de f (t , 練). Si F(t , 練) est convexe, c’est-à-dire si f (t , 練) est croissante, les deux problèmes sont équivalents, et ont une solution unique. Si F(t , 練) est simplement minorée par une fonction convexe, l’intégrale admet un minimum qui résoudra le problème de Dirichlet.Les moyens modernes, particulièrement la théorie des espaces de Sobolev, permettent d’étendre cette méthode à des situations plus compliquées. La nécessité de résoudre le problème d’optimisation correspondant, et donc d’employer le théorème d’existence cité plus haut, conduit à quelques traits généraux:(a ) les termes d’ordre supérieur (2 dans l’exemple cité) doivent constituer le sous-différentiel d’une fonction convexe: on dit qu’ils sont elliptiques . Les termes d’ordre inférieur sont moins déterminants, et peuvent en général être traités par des méthodes de compacité;(b ) les espaces fonctionnels où l’on cherche la solution doivent être réflexifs, ce qui exclut l’usage de Cr . Il faudra travailler dans des espaces construits à partir des Lp , 1 麗 p 麗 秊, et la solution 異 du problème d’optimisation ne sera pas nécessairement différentiable, et ne vérifiera l’équation désirée qu’en un sens à préciser (solution faible ). La résolution complète de l’équation nécessitera donc une deuxième étape, où l’on montrera par des méthodes ad hoc que la solution faible 異 trouvée est en fait suffisamment différentiable pour vérifier l’équation en chaque point (solution classique ): c’est le problème de la régularité, qui est ainsi séparé du problème de l’existence.Le cas des systèmes (N 礪 1) est encore mal compris, et suscite beaucoup d’intérêt à l’heure actuelle, en liaison avec certains problèmes de mécanique des solides (élasticité non linéaire).À côté des simples équations, les inéquations ont maintenant acquis droit de cité. Elles apparaissent naturellement quand on envisage ces problèmes sous l’angle de l’optimisation. Ainsi, la condition nécessaire et suffisante d’optimalité dans le cas convexe (cf. supra ) s’écrira:On dit que 異 est une solution de l’inéquation variationnelle :Cette notion est apparue comme essentielle pour la formulation correcte d’un grand nombre de problèmes de mécanique et de physique (frottement sec, problèmes avec obstacle). Ainsi, par exemple, le problème de Dirichlet avec un obstacle symbolisé par la fonction 﨏(t )s’écrit comme l’inéquation variationnelle:que l’on préfère mettre sous la forme suivante:Des problèmes plus compliqués, issus du contrôle optimal, ont conduit à la considération d’inéquations quasi variationnelles , où l’ensemble X dépend du point considéré:Les inéquations variationnelles ont été introduites et étudiées systématiquement par les écoles française et italienne, autour de Lions, Brezis et Stampacchia, vers la fin des années soixante. Depuis lors, elles se sont révélées un modèle commode pour décrire nombre de phénomènes mécaniques, comme l’élastoplasticité, le frottement sec, la diffusion à travers une membrane semi-perméable, l’écoulement des fluides de Bingham, l’infiltration de l’eau à travers un barrage poreux, et ont suscité une multitude de travaux à travers le monde. Les inéquations quasi variationnelles sont apparues plus tardivement, dans les travaux de Bensoussan et Lions, pour résoudre certains problèmes de contrôle impulsionnel liés à la gestion des stocks en avenir aléatoire.Pour les inéquations variationnelles ou quasi variationnelles, comme pour les équations, la question de l’existence est séparée de la question de la régularité. L’existence d’une solution, dans un espace de Sobolev adéquat, est en général prouvée par une méthode de minimisation dans le cas variationnel. Ainsi, on résoudra le problème de Dirichlet avec obstacle en minimisant l’intégrale:sur l’ensemble des fonctions x vérifiant:Dans le cas quasi variationnel, on ne dispose plus de cette méthode, et l’on doit donc recourir à d’autres propriétés, comme les relations d’ordre ou les théorèmes de point fixe.La régularité, on s’en doute, est beaucoup plus difficile à établir pour les inéquations que pour les équations. Ainsi, l’équation de Laplace 漣 x = f , avec des données nulles au bord, a une solution Ck+2 si f est Ck . Mais, si l’on transforme le problème en inéquation en imposant un obstacle, x 閭 﨏 par exemple, avec 﨏 de classe Cp , il est clair que 﨏 imposera sa régularité à x dans les régions de contact. On s’attend donc à avoir x de classe Ck+2 là où x 礪 﨏 et Cp là où x = 﨏, et l’analyse confirme cette intuition. Mais une autre question se pose alors: quelle est la régularité de la frontière séparant les régions où x = 﨏 et x 礪 﨏? Les problèmes de frontière libre (c’est-à-dire inconnue a priori), dont celui-ci n’est qu’un premier exemple, continuent de susciter un vif intérêt, en raison de leur difficulté technique et de leur importance en physique.On ne saurait terminer ce tour d’horizon d’un domaine de recherche qui a été particulièrement actif dans les années soixantedix sans mentionner les problèmes ouverts et les perspectives d’avenir. Le principal problème ouvert est numérique: la résolution théorique des inéquations quasi variationnelles, par exemple, est poussée très loin, mais la résolution numérique est impossible dès que le nombre de variables est important, ce qui limite beaucoup l’impact pratique de ces méthodes. Du point de vue théorique, le problème ouvert reste celui de la compréhension des systèmes (élasticité non linéaire).Mais il semble bien que le centre d’intérêt commence à se déplacer vers des problèmes variationnels qui n’ont plus rien de convexe. En 1976, Rabinowitz démontrait que le problème aux limites:(variante non linéaire de l’équation des ondes) possédait une solution x non identiquement nulle si T était rationnel. Sa méthode consiste en une étude directe de la fonctionnelle:dont il montre qu’elle possède un point critique non nul. Il résout donc l’équation f (x ) = 0, alors qu’il est aisé de se convaincre que la fonctionnelle f n’est bornée ni inférieurement ni supérieurement, et qu’on ne peut donc procéder par minimisation et maximisation.Après ce premier succès, on ne recule plus devant la perspective de rechercher les points critiques de fonctionnelles non bornées. D’autres méthodes sont apparues, d’autres problèmes ont été résolus, et il semble bien qu’il y ait là une tendance à laquelle l’avenir soit promis.Le lecteur se demande peut-être comment trouver des points critiques qui ne soient pas des minimums ou des maximums. Nous l’invitons à réfléchir sur le résultat suivant:Théorème. Soit X un Banach réflexif et f : XR une fonction C1 vérifiant la condition (C) de Palais-Smale. On suppose que:Alors, il existe 異 捻 X tel que:Contrôle optimalUn problème de contrôle optimal est un problème d’optimisation doté d’une structure temporelle. À tout instant t , il s’agit de choisir un contrôle u (t ) – on dit aussi une commande – dont dépendra l’état x (t ) du système par l’intermédiaire d’une loi d’évolution prescrite. On s’arrête dès qu’un certain objectif est atteint, par exemple au bout d’un temps donné, et on fait les comptes. Le problème est que le critère retenu dépendra en général de toute la trajectoire décrite par le système, alors que le choix du contrôle doit être fait au fur et à mesure. Il faut donc trouver un moyen de décomposer le critère global en critères instantanés, qui permettront de prendre la bonne décision à chaque instant t .Un modèle simple est le suivant, où t 1 est fixé:Ce modèle peut être compliqué à l’infini. L’évolution du système peut être régie par une équation aux dérivées partielles (systèmes à paramètres distribués ) ou par une équation différentielle stochastique (contrôle optimal stochastique ). On peut avoir le choix entre plusieurs lois d’évolution différentes, entre lesquelles on a la faculté de choisir à chaque instant (contrôle impulsionnel ).Pour notre modèle, le résultat principal est le fameux principe de Pontriaguine, qui donne la condition nécessaire d’optimalité sous une forme utilisable. Si (face=F0019 練) est un contrôle optimal, 異 (face=F0019 練) l’état correspondant, il existera un vecteur 樂 (face=F0019 練), solution de l’équation différentielle:La résolution du problème de contrôle se trouve ainsi ramenée à un problème aux limites pour ( 異 , 樂 ). Pour le voir, introduisons la fonction:appelée le hamiltonien du système. Les relations entre 異 et 樂 sont alors résumées par les équations, dites de Hamilton:Une troisième méthode d’approche consiste à considérer la valeur du problème (e ) comme une fonction de (t 0, x 0), c’est-à-dire à introduire la fonction:On montre qu’elle vérifie l’équation aux dérivées partielles du premier ordre, dite de Hamilton-Jacobi :condition au bordRéciproquement, si on connaît une solution V de l’équation de Hamilton-Jacobi, on se trouve avoir résolu le problème (e ) pour toutes les conditions initiales (t 0, x 0). Le vecteur p de Pontriaguine est donné par la 煉VMalheureusement, ces deux dernières méthodes soulèvent très vite des difficultés techniques considérables. La justification complète des équations de Hamilton et Hamilton-Jacobi fait appel au «calcul différentiel généralisé», et est encore l’objet d’actives recherches. Une exception toutefois, le cas stochastique, où l’équation de Hamilton-Jacobi devient du second ordre, le terme supplémentaire étant elliptique et simplifiant considérablement la situation.Décrivons brièvement ce dernier cas. L’équation d’état est une équation différentielle stochastique:où w est un processus de Wiener standard dans Rn , et 靖 礪 0 un nombre donné. Le critère est une espérance mathématique sur les trajectoires:L’équation de Hamilton-Jacobi est alors une équation parabolique non linéaire:Le principe de Pontriaguine lui-même devient inextricable dès qu’on introduit des contraintes sur l’état , du type 祥(t , x (t )) 閭 0 pour tout t , cas malheureusement fréquent en pratique.C’est pour cela qu’un intérêt particulier s’attache aux modèles simples, linéaires de préférence, où l’on peut résoudre le problème analytiquement, et donner le contrôle optimal en fonction de l’état à chaque instant (feedback ). On renvoie pour cela à l’article AUTOMATIQUE.Curieusement, dans un certain nombre de problèmes pratiques, il n’y a pas de contrôle optimal (face=F0019 練). On peut alors montrer que les suites minimisantes (u n (face=F0019 練)) convergent faiblement vers un contrôle u (face=F0019 練) qui est optimal pour un nouveau problème, appelé problème relaxé . L’intérêt de cette notion est que le problème relaxé peut être formulé explicitement sans qu’on ait – et pour cause – résolu le problème original, et qu’il a en général une interprétation physique simple. Dans le cadre des équations aux dérivées partielles, cette méthode porte le nom d’homogénéisation et fait l’objet d’actives recherches.À titre d’exemple, le problème:avec f (x , u ) = x 2 + (1 漣 u 2)2, n’a pas de solution optimale, comme on s’en convainc facilement. Le problème relaxé s’écrit:Sa solution optimale est = 0, qui donne la valeur 0. Pour obtenir le même résultat dans le problème original, il faudrait utiliser un contrôle oscillant infiniment vite, de manière que, pendant tout intervalle de temps t , on ait u = + 1 pendant 12 蓮t et u = 漣 1 pendant 12 t . Un modèle mathématique pour un tel contrôle glissant est donné par u (t ) = 12 嗀1 + 12 嗀-1 (masses de Dirac en + 1 et 漣 1).Calcul des variationsLes problèmes de calcul des variations consistent à trouver une courbe, une hypersurface, ou un autre objet géométrique, minimisant un certain critère, généralement exprimé par une intégrale. Il se situe à l’intersection des deux domaines précédents, et la plupart des méthodes classiques du calcul des variations se retrouvent maintenant dans celles que nous avons décrites.Ainsi, pour un problème dit de Bolza :l’existence d’une solution optimale est assurée si f (t , x , 練) est convexe en y , et si f (t , x , y ) 瑩y 瑩-1+ 秊 quand 瑩y 瑩秊. Le principe de Pontriaguine s’applique (avec dx(t ) = u (t )), et on peut en déduire l’équadt tion d’Euler-Lagrange ainsi que toutes les conditions du second ordre classiques (Legendre, Erdman-Weierstrass).Cependant, une quantité de problèmes particuliers, souvent d’une grande importance, ont requis l’attention des mathématiciens au cours des siècles, et nécessité le développement de méthodes ad hoc. Nous nous contenterons de parler des plus célèbres: le problème des géodésiques et le problème de Plateau.Le problème des géodésiques, dans sa forme initiale, consiste à trouver les courbes de longueur minimale tracées sur une surface entre deux points. Il se trouve qu’on peut remplacer la longueur par un autre critère, d’énergie potentielle, et que le problème peut alors être résolu par des moyens élémentaires [cf. VARIÉTÉS DIFFÉRENTIABLES].Le problème de Plateau, dans sa forme initiale, consiste à trouver les surfaces d’aire minimale s’appuyant sur un contour donné. Une formulation simplifiée consiste à chercher une fonction x sur un ouvert borné 行 說 Rn , prenant des valeurs données au bord et minimisant l’intégrale:L’équation correspondante, dite des hypersurfaces minimales , s’écrit:Contrairement à ce qui se passe pour les géodésiques, il est impossible de se ramener à un critère quadratique. À cause de cela, toute la théorie précédente est inutilisable: l’espace naturel (fonctions x telles que les 煉x soient dans L1( 行)) n’est pas réflexif, le 煉t iproblème n’est plus uniformément elliptique. Il faut une théorie particulière, non linéaire, où les questions de régularité, fondées sur des estimations a priori très fines, jouent le rôle principal. Qu’il nous suffise de savoir, par exemple, que:(a ) le problème simplifié a une solution quelles que soient les données au bord, si et seulement si le bord de l’ouvert 行 a une courbure moyenne partout positive;(b ) pour n 麗 8, toute solution u de l’équation des hypersurfaces minimales, définie sur Rn tout entier, est linéaire; c’est faux dès que n 閭 8, ce qui complique grandement le problème de Plateau.Tout récemment, un des problèmes les plus classiques du calcul des variations a retrouvé une grande importance: il s’agit de la recherche des solutions périodiques de systèmes hamiltoniens.Un système hamiltonien s’écrit:avec 1 諒 i 諒 n , où la fonction H: Rn 憐 RnR, le hamiltonien, est donnée. On dit que n est le nombre de degrés de liberté.Ces équations modélisent un très grand nombre de systèmes mécaniques ou physiques, qui présentent la caractéristique d’être conservatifs: H(x (t ), p (t )) ne change pas au cours du mouvement, et représente en général l’énergie du système. Les solutions périodiques, c’est-à-dire qui vérifient x i (t + T) = x i (t ) et p i (t + T) = p i (t ), 1 諒 i 諒 n , pour un certain T, représentent alors les oscillations libres, ou vibrations propres, d’un tel système, non linéaire sauf si H est quadratique.Ce problème se ramène à l’étude des points critiques de la fonctionnelle:L’intérêt mathématique de ce problème réside dans le fait que la fonctionnelle f n’est bornée ni inférieurement ni supérieurement, et qu’on ne peut donc procéder par minimisation ou maximisation. Les méthodes actuellement mises au point pour résoudre ce problème sont diverses, comme nous l’avons indiqué précédemment, à propos des équations aux dérivées partielles. Signalons qu’ici on bénéficie d’une structure supplémentaire: le groupe R/TZ agit sur l’espace fonctionnel par les translations en temps, (x (t ), p (t ))(x (t + t 0), p (t + t 0)), en laissant invariant la fonctionnelle f . Cette invariance, bien exploitée, permet d’obtenir des résultats de multiplicité dont nous donnons le prototype.Théorème. On suppose que l’ensemble C =x |H(x ) 諒 1 est convexe, à bord de classe C1, et contient l’origine dans son intérieur. Posons:
Encyclopédie Universelle. 2012.